I kada sam pitala ChatGPT zašto halucinira, dobila sam odgovor: „ChatGPT ne „zna“ stvari na način na koji ljudi znaju. On generiše tekst predviđajući najverovatniju narednu reč na osnovu obrazaca naučenih iz ogromnog skupa podataka (knjige, članci, veb-sajtovi itd.).“
Koliko se možemo osloniti na AI alate?
U poslednjih par godina upotreba i razvoj AI alata je otišla u nedogled. ChatGPT, Gemini, Deepseek, Perplexity. Međutim, koliko se na njih možemo osloniti?
Verovatno se sećate vesti sa početka 2023. godine kada su akcije kompanije Alphabet pale za više od 7% u jednom danu, što je oborilo tržišnu vrednost firme za čak 100 milijardi dolara.
Sve je počelo promotivnim videom za chatbot Bard (sadašnji Gemini), objavljenim na Tviteru. U njemu je botu postavljeno pitanje kako bi detetu od devet godina objasnio otkriće svemirskog teleskopa Džejms Veb.
Bard je dao pogrešan odgovor i dodao da je taj teleskop prvi zabeležio fotografiju planete izvan Sunčevog sistema. Zapravo, taj podvig je ostvario Evropski Very Large Telescope još 2004. godine. Ovo su astronomi primetili na Twiteru i prilično burno reagovali na objavljenu laž. Da li želite sličan gubitak?
Ovo je samo jedan od mnogih primera u kojima su javno dostupni alati, posebno u besplatnoj verziji, davali potpuno netačne ili izmišljene odgovore. Vremenom, ovaj bag se ustalio pa je još i ime dobio – AI halucinacija.
Da uprostim, AI halucinacija je kada neki AI alat poput ChatGPT-ja, samouvereno proizvede netačan ili potpuno izmišljen odgovor, gde čak dobijemo i link ka nepostojećem izvoru, sajtu, članku.
Brojke koje zabrinjavaju
To ne bi bio toliko veliki problem da velike kompanije nisu krenule u ozbiljne implementacije AI alata u poslovanje. Posebno je zabrinjavajuća brojka da su u preko 47% kompanija ljudi na vodećim pozicijama ozbiljne odluke donosili na predikcijama i rezultatima dobijenim upotrebom AI-ja.
Dobro je što su reakcije kompanija išle skoro istom brzinom kao razvoj AI-ja, pa smo došli do 2025. gde preko 76% kompanija uključuje ljude u revidiranje rezultata i sadržaja dobijenih od strane AI-ja pre nego ih pošalju javno.
Ako u svemu ovome treba zauzeti neku stranu, ne smem zanemariti ni to da ljudske greške nisu postale ništa manje. Koliko AI „glumi i izmišlja“, toliko i ljudi pogrešno tumače dokumenta, greše u unosu podataka u tabele, greškom brišu delove tekstova pa se kontekst gubi. Tako da je i ljudski faktor podjednako podložan greškama.
Pitanje je samo gde je granica preko koje nećemo dati AI-ju da odlučuje, a ljude nećemo isključiti iz procesa provere.
Analize na nivou industrije pokazuju da je stopa AI halucinacija od 2023. do danas smanjena za oko 64%.
Od 2025. godine, modeli kao što su ChatGPT i Google Gemini integrišu Deep Learning i modele web pretrage. Iako ovim modelima treba mnogo duže da proizvedu rezultate, već postoji nekoliko AI modela sa stopom halucinacija ispod 1% zahvaljujući dubljem istraživanju na zahtev, i sa nivoom tačnosti koji se približava dobro obučenom ljudskom analitičaru.
Ali, ako uzmemo u obzir količinu podataka koja se u svaki AI alat unese i obradi, i kolika količina netačnih i pogrešnih informacija je pohranjena u alate i proizvedena od strane istih, pitanje koje se nameće je: koliko odgovora se zasniva na svim lošim i pogrešnim podacima?
Naši AI alati su inficirani pogrešnim informacijama i odgovorima što povećava mogućnost halucinacija.
Ovo se najviše odrazilo u pravnom sektoru, medicini i farmaciji, gde su ljudi dobijali rezultate tumačenja zakona, procesa potpuno netačno, zasnovano na nepostojećim izvorima.
Zamislite scenu u sudu gde se advokat poziva na pravni presedan koji je AI asistent izmislio, ili doktora koji daje dijagnozu na osnovu AI alanize, ili farmaceuta koji spravlja lek na osnovu recepture iz ChatGPT-ja.
Imajte na umu, da su odgovori svakog AI alata takvi da vas ubede i da steknete osećaj samouverenosti i sigurnosti u proizveden odgovor. Ono što jeste do vas, jeste neophodnost da uradite validaciju informacija, izvora i sve dobro proverite pre nego poverujete na prvu.
Ovo ne znači da ste neverni Toma, samo da ste pažljivi prema sebi i prema informacijama koje delite. I svakako ovo ne oduzima puno vremena, a dobro je kombinovati par alata za proveru tačnosti podataka. A, ako baš želite, kada alati zakažu tu je stari dobri Google search.
Dobra vest je da su današnji najbolji AI modeli, kada su profesionalno obučeni i korišćeni, najgori što će ikada biti u budućnosti.
Važno je napomenuti da OpenAI priznaje da je rešavanje halucinacija stalni prioritet istraživanja kako se modeli razvijaju. Noviji GPT modeli sada uključuju alate za Deep Research koji, iako traju duže, značajno smanjuju broj grešaka i halucinacija.
Ljudska greška: da li bi trebalo više da verujemo ljudima nego AI-ju?
U prethodnom delu sam probala da vam približim šta su halucinacije i kako nastaju kod primene AI alata. Ali važno je naglasiti da smo mi ipak ljudi – a, ljudi greše!
U kompanijama i dalje postoje čitave divizije ljudi koji traže greške. Čak i tako, i najpažljiviji greše. Dosta se radilo i istraživalo na ovu temu grešaka, i većina se slažu u jednom, u proseku 4 od 100 unosa podataka koje čovek odradi jesu pogrešni.
Najobučeniji radnici mogu dostići 96% tačnosti u radu, ali koliko je takvih. Zamislite u finansijama koliko košta jedan pogrešno otkucan nalog za prenos, ako slučajno dodamo samo nekoliko nula.
Da, neki od ovih slučajeva jesu ekstremni i definitivno potvrđuju činjenicu: ljudske greške mogu biti jednako problematične kao AI halucinacije i često su mnogo skuplje!
U praksi i ljudske greške koštaju. Ne samo novca nego i vremena. Nekada je jako teško vratiti se unazad i ispraviti ljudsku grešku zato što tragovi ne postoje. U firmama se troši i do 20% vremena na otklanjanje grešaka, pa preračunajte to u parama. Kako bi se ovo predupredilo uvode se višestepeni faktori verifikacije, koji u procesu znaju da smaraju, ali niz odobrenja i provera vas tera da više puta prođete jednu stvar.
I sada, šta je po vama pouzdanije – čovek ili AI? Čije greške su češće i koje je skuplje popraviti?
Poslovna politika se menja. Firme teže da usvoje AI rešenja i automatizaciju kako bi poboljšale produktivnost i efikasnost, ali ne žele da rizikuju netačne informacije.
Srećom, kao što smo pomenuli, tačnost vodećih AI modela dramatično se poboljšala u poslednje dve godine, posebno sa unešenim promenama i nadogradnjom. Ali to ne znači da AI treba da zameni ljude, već da njihov rad dopuni kako bi se poboljšale produktivnost i efikasnost.
AI nadmašuje ljude u analizi podataka ili tačnosti izveštavanja, ali čovek i dalje ima bolje rasuđivanje u situacijama koje zahtevaju viš zdravog ljudskog razuma i osećaja.
Važno je zapamtiti da AI ne treba da bude zamena za vaše zaposlene, već da im omogući da uspeju i postanu produktivniji.
Ja sam Marija Milanović, business development manager u Represent academy timu, tech lover i veliki AI fan, i neko ko će na ovom putovanju kroz upoznavanje, prihvatanje i implementaciju AI alata biti uz vas. Ne znam sve, ali sam spremna da učim. A tamo gde zastanem, pridružiće mi se saradnici i stručnjaci u ovoj oblasti da pomognu i podele svoje iskustvo.